지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

[기자의 눈] “챗GPT야, 코끼리는 생각하지마”

인공지능(AI) 기술이 상상 이상으로 빠르게 발전하고 있다. 챗GPT 개발사 오픈AI의 최고경영자(CEO) 샘 올트먼은 최근 챗GPT가 이제 과거 사용자와의 모든 대화를 기억하고, 언제든지 꺼내 쓸 수 있도록 메모리를 대폭 향상했다고 밝혔다.     올트먼은 이전에 챗GPT와 나눈 말, 좋아했던 주제, 자주 묻는 말까지 모두 저장 가능하다고 강조했다. 정보 수집 등 보안 문제에 대해선, 사용자가 이 기억을 직접 관리할 수 있다고 덧붙였다. 내용을 삭제할 수도 있고, 저장되지 않는 ‘임시 대화 모드’로 전환해 대화를 나눌 수도 있다.   겉보기에는 아주 똑똑하고 편리한 기술처럼 보인다. 매번 같은 설명을 반복하지 않아도 되고, 오래전 이야기까지 이어받아 대화를 나눌 수 있으니 말이다. 그러나 과연 ‘기억하는 AI’가 사용자에게 좋은 점만 있을지는 의문이다. 기술 편의성의 이면에는 짚고 넘어가야 할 중요한 문제들이 숨어 있다.   인지언어학을 창시한 세계적인 석학 조지 레이코프는 ‘코끼리를 생각하지 마’라는 저서를 통해 인간의 무의식 구조를 설명한 바 있다. 인간에게 코끼리를 생각하지 말라고 했을 때, 코끼리에 대한 생각이 그 어느 때보다 강하게 든다는 것이 이 비유의 설명이다. 어떤 것을 생각하지 말라고 해서 머릿속에 떠오르지 않게 할 수는 없다는 것이다. 이 개념은 AI의 시스템과도 맞닿아 있다. 전문가들이 AI에 뭔가를 “하지마”라고 명령하는 것보다 뭔가를 “해”라고 하는 것이 더 효과적인 답변 생성 방법이라는 것과도 비슷하다.     이처럼 문제는 AI에게 “기억하지 말라”고 요청할 수는 있지만, 그 대화의 맥락이나 패턴이 이미 언급 및 학습되었다면 완전히 지웠다고 보기는 어렵다는 것이다. 삭제된 것처럼 보여도, AI는 그 흔적을 통해 여전히 사용자에 대해 추론하고 반응할 수 있다는 지적이 나온다.   이런 구조는 인간의 무의식과 닮은 듯하지만, 결정적으로 다르다. 인간은 자신의 무의식을 들여다볼 수 없고, 통제하기도 어렵다. 반면 AI는 체계적으로 데이터를 정리하고, 명령에 따라 그 정보를 호출하거나 숨길 수 있다. 문제는 AI가 어떤 것을 기억하고 있는지 사용자 입장에서는 완전히 알기 어렵다는 데 있다.   최근 사용자들 사이에서 유행했던 ‘지브리 스타일 프로필 사진’은 이러한 위험성을 단적으로 보여준다. 사용자들은 단순히 재미로 얼굴 사진을 챗GPT에 업로드했지만, 그 이미지가 어떻게 저장되고 활용되는지에 대해 충분히 인지하지 못했다. AI는 별다른 고지 없이 업로드된 사진을 AI 학습에 사용하거나, 데이터베이스에 보관한다. 그 과정에서 얼굴 정보는 물론이고, 나이, 성별, 인종 같은 민감한 정보까지 수집될 수 있다.   이처럼 AI의 기억과 데이터 활용이 결합되면, 사용자 본인도 모르는 사이에 자신에 대한 정교한 프로필이 생성될 수 있다. 취향, 감정, 사고 패턴, 말의 뉘앙스 등 겉으로 보이지 않는 정보까지 분석되면서, 우리는 어느새 기술이 만들어낸 또 하나의 ‘의식’ 속에 존재하게 된다. AI가 저장한 기억은 단순한 데이터가 아니라, 사용자의 디지털 자아로 확장될 수 있다.   물론 이 모든 것이 무조건 나쁘다고 할 수는 없다. AI가 기억을 바탕으로 더 정교한 추천을 해주고, 더 자연스러운 대화를 이끌어주는 건 분명한 장점이다. 그러나 우리가 그 기억의 흐름을 완전히 통제할 수 없다면, 그것은 편리함이라는 이름을 쓴 또 다른 형태의 감시일 수도 있다.   무심코 나눈 대화, 단순히 재미로 올린 사진 한 장, 아무렇지 않게 누른 클릭 하나가 AI의 기억에 남아서 그 이후의 대화와 판단에 영향을 줄 수 있다면, 이 기술을 신뢰하기 전에 먼저 ‘내 정보는 안전할까’라는 질문에 대해 생각해봐야 한다.   기술이 하루가 다르게 발전하는 지금 기능 향상도 좋지만 적절한 안전 조치에 대한 필요성도 제기되고 있다. 어쩌면 지금 필요한 건, 기억을 강화하는 AI가 아니라, 잊어야 할때 잊을 줄 아는 기술일지도 모른다. 우훈식 / 경제부 기자기자의 눈 코끼리 생각 사용자 입장 사용자 본인 최근 사용자들

2025-04-27

많이 본 뉴스




실시간 뉴스